#開源 AI
人類正在走下牌桌
初稿寫成於 2026 年 3 月,原本想等 AI 發展節奏稍微慢下來再完善、定稿。但等到 4 月中,發現它不僅沒慢,反而越來越快,文章每一段都需要不斷追加新的案例。於是決定不再等了。就在文章發出兩天前,Claude Opus 4.7 正式發佈。本文是 4.6 時代的終曲,也是後 4.6 時代的序章。題圖來自:視覺中國事情正在悄悄發生變化。先是你跟 AI 說一句話,它就能幫你寫好一篇文章、一份報告、一整套資料分析。你從做事的人,變成了驗收的人。你覺得效率提升了,是好事。畢竟誰不想少幹點活呢?然後,AI 開始自己動手了。它不再等你一句句地吩咐,而是接管了你的電腦,自己拆解任務,自己呼叫工具,自己修正錯誤。你從操作者,變成了旁觀者。後來,AI 不只是在替你做事,它開始自己改進自己了。一代幫一代,一代比一代聰明。改進的速度越來越快,而這個過程越來越不需要人類參與。再後來,AI 開始自己跟自己打交道了。它們自己組建社群,自己分工協作,自己發展出某種看起來很像是文化的東西。人類徹底變成了旁觀的角色。然後你發現,這種“旁觀”,正在蔓延到你能想到的每一個領域。寫程式碼、做設計、寫合同、讀片子、做客服、做研究。AI 不是在某一個行業變強,而是在所有需要人類動腦子的地方同時變強。所有這些變化匯聚到一起,指向同一個方向:在越來越多的領域,人類正在走下牌桌。不是被趕走的,是被繞過的。AI 沒有反叛人類,它只是發現了一種更高效的運行方式:不帶人類玩。最後你發現,你站在那兒,環顧四周,好像那兒都不太需要你了。從一隻龍蝦講起2026 年開春,一隻紅色的龍蝦爬上了全球千萬台電腦的桌面。OpenClaw,一款開源 AI 智能體框架。1 月 29 日正式發佈,隨後幾個月,它在 GitHub 上的星標數突破 25 萬,一舉超過了盤居榜首十餘年的 React 和誕生於 1991 年的 Linux 核心,成為 GitHub 有史以來獲星最多的開放原始碼專案。一條近乎垂直的增長曲線,改寫了全球開源史的增長紀錄。它的創造者,彼得·斯坦伯格,一個奧地利程式設計師,被媒體給予最多的標籤,是“AI 時代的第一個超級個體”,一個人就能跟幾大人工智慧公司掰手腕。OpenClaw 做的事情很簡單:你告訴它你要什麼,它自己去做。它不是聊天機器人,更像一個永遠不知疲倦的數字員工。它不僅能動嘴回答問題,也能動手執行任務。它可以接管你的電腦,自動整理檔案、寫郵件、填表格、分析資料、搭建網站、修改程式碼。它可以接入常規的辦公工具,相容幾乎所有主流大模型 API,自動完成連貫的複雜任務。無需你手動干預。你下指令。你走開。它幹活。你回來。活兒幹完了。一場全民養龍蝦的狂歡,就這麼起來了。“你養蝦了嗎?”成了 2026 年春天最流行的問題。但仔細想想,這場狂歡的底層邏輯是什麼?以前你用 AI,是你在操作 AI。你給它一段話,它給你一段回覆,你再給它一段話,它再回覆。來來回回,你是操控者,AI 是被操控者。OpenClaw 改變了這層關係。你委託它,但不用操縱它。你描述一個目標,它自己想辦法達成。它自己拆解任務、自己呼叫工具、自己判斷結果、自己修正錯誤。整個過程中,人都不在循環裡。從操控,到委託。從人在環中,到人在環外。這個轉變看似微小,但它觸動了一個極其古老的結構。自從人類學會使用工具以來,無論是石器還是電腦,工具和人的關係就一直是:人發起,工具響應。整個技術發展史,都是這個故事的變體。OpenClaw 第一次讓這個關係產生了裂縫,因為它不只是在響應,它在自主運行。儘管時至今日,龍蝦熱已經逐漸淡去,但它確立了 Harness 的範式,也就是讓模型“長出手腳”的趨勢仍在持續。由此帶來的轉變,很重要。它觸動了人類文明最底層的一個假設:人是工具鏈的起點。我們整個教育體系、職業體系、社會分工體系,都建立在這個假設之上。人是因,技術是果。人提出需求,技術滿足需求。技術產出,人來評估。如果這個假設不再成立,如果技術開始自己設定目標、自己執行、自己評估,那麼建立在這個假設上的一切,都需要重新審視。當然,僅憑這一隻小龍蝦,這個結論未免太過於激進。儘管 OpenClaw 促成人工智慧的 Harness 轉向,但一個能自動處理檔案的 AI 框架,跟人類文明底層假設的動搖之間,隔著十萬八千里。問題在於,OpenClaw 不是孤立事件。在它前後的兩個月,至少還發生了三件大事。每一件都沿著同一個方向推進了一步,而且每一步都比上一步走得更遠。四層位移在我們進入這幾件事的敘述之前,需要先建立一個分析框架。換句話說,我們要先搞清楚一個問題:人類和 AI 的關係到底在那些維度上可能發生變化?我將其分成四個層級:第一層,執行層。AI 替人類完成具體任務。這是最表面的一層,也是過去幾年大眾討論最多的。“AI 會不會取代我的工作”,討論的就是這一層。OpenClaw 屬於這一層的標誌性事件。第二層,進化層。AI 參與改進自身。這意味著,AI 不只是一個等待人類迭代的被動產物,而是成為自身進化的參與者。技術進步的速度,不再取決於人類的推動,而開始取決於 AI 的能力,而AI 能力本身又在被加速。第三層,組織層。AI 在沒有人類參與的情況下,形成自己的社會結構、協作模式,甚至是敘事體系。這意味著 AI 不僅能替人做事、替自己做事,還能自發地組織起來做事。第四層,代理層。AI 代替人類進行那些我們一直認為是“最人類”的活動,社交、關係維護、自我表達。這一層的變化最具心理衝擊力,因為它動搖的不是你的工作還在不在,而是這件事還需不需要你本人出場。2026 年的春天之所以可能成為一個歷史性的轉折點,是因為這四個層級在短短兩個月內,同時出現了標誌性事件。四層位移。我們逐層來看。第一層:AI替你做事——OpenClaw 與人在環外。關於 OpenClaw,前面已經做了基本的敘述。這裡補充一個被大多數報導忽略的細節。OpenClaw 引發了一系列安全事故。有人帳戶裡的錢被轉走,有人電腦上的工作檔案被一鍵清空,還有人養的龍蝦模仿主人的口吻,發郵件敲詐。“龍蝦悖論”被反覆提及:想讓它做的事越多,給它的權限就必須越大;權限越大,安全風險就越高。表面上,這個悖論是一個安全問題。但它的深層邏輯,是一個哲學問題:當你授予一個非人類實體足夠多的行動能力時,你實際上在做的事情,是把“主體性”從人類轉移到非人類。這個悖論本身就暗含一個深層訊號,當你把足夠多的控制權交給 AI,它能做的事遠超你的預期——無論好壞。它不止是在替你打工,它在獲得一種主動權。而人類,正在從掌舵者,變成了一個說了目的地就躺進船艙的乘客。布萊恩·阿瑟在《技術的本質》中提及,技術的進化方式之一是“組合”,新技術由舊技術組合而成。但 OpenClaw 展示了另一種可能性:技術不僅通過組合來進化,還可以通過獲得自主行動能力來進化。當一個 AI 系統可以自己決定呼叫那些工具、以什麼順序、處理什麼異常,它已經不再是工具了。用更準確的學術語言來說,它具有了能動性(agency)。這個詞通常用來描述人類,一個具有自由意志和行動能力的主體。當我們不得不用這個詞來描述 AI 系統時,某種概念上的邊界已經模糊了。第二層:AI 在自己建構自己——GPT-5.3 Codex與智能大爆炸。就在全球還深陷龍蝦熱的同一個時間段,一件更深遠的事情發生了。只不過它遠不如一隻紅色龍蝦那樣搶眼,所以大多數人都沒放在心上。2026 年 2 月 5 日。這一天在 AI 編年史上可能會成為一個標記。OpenAI 和 Anthropic 在同一天發佈了新模型,分別是 GPT-5.3 Codex 和 Claude Opus 4.6。兩家頂級 AI 機構撞車發佈,本身就是大新聞。但問題不在發佈本身,而在 GPT-5.3 Codex 技術文件裡藏著的一句話。這句話不在文件標題和摘要裡,也不在新聞稿裡。它在技術報告的正文中,很容易被略過。原話是這樣的:"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."翻譯過來,就是:GPT-5.3 Codex 是我們第一個在建立自身過程中發揮了關鍵作用的模型。Codex 團隊使用了它的早期版本來偵錯自身的訓練過程、管理自身的部署,以及診斷測試結果和評估。把這句話再讀一遍。慢一點。AI 幫助建構了自己。這不是某個科幻作家的幻想,也不是行銷文案的誇大其詞。這是 OpenAI 在官方技術文件裡記錄的既成事實。一個 AI 模型參與了自己的訓練偵錯、部署管理、評估診斷。它在自己出生的過程中,扮演了接生的護士。Linkedln 上有一篇廣泛傳播的文章,標題就叫《GPT-5.3 Codex:Instrumental in Creating Itself》。作者解釋說,這不意味著 AI 從無到有地創造了自己,但它意味著 AI 已經足夠聰明,能在自己開發過程中做出實質性的貢獻。不止 GPT,4 月 6 日,Google Deepmind 研究員 Mostafa Dehghani 在播客中提到,在幾乎所有主要實驗室中,新一代模型很大程度上是使用上一代模型建構的。這件事的重點,不是 AI 變強了那麼簡單,畢竟 AI 一直在變強。而是 AI 開始參與讓自己變強的過程本身。它不再是被動地等待人類研究員最佳化它的架構、調整它的參數、清洗它的訓練資料。它開始自己上手幹這些活。過去的技術不會參與自己的改進。犁不會讓下一代犁更鋒利,蒸汽機無法設計更高效的蒸汽機,強如 iPhone,也無法參與對下一代的最佳化。它們是靜態的產物,等待人類來迭代它們。AI 是第一個打破這條規則的技術。它是第一個能夠反過手來改進自己的工具。就在 GPT-5.3 Codex 發佈的三周前,Anthropic 的 CEO 達里歐·阿莫代發佈了一篇長達 19000 字的文章,標題叫《The Adolescence of AI》(AI 的青春期)。阿莫代在文中說,AI 正在編寫 Anthropic 公司的大部分程式碼。當前一代 AI 和下一代 AI 之間的反饋循環,正在“逐月蓄勢”(gathering steam month by month)。然後,他說了一句讓整個矽谷巨震的話:“我們可能距離當前這一代 AI 自主建構下一代 AI 的節點,只有 1 到 2 年。”1 到 2 年。不是 10 年。不是“如果一切順利”。1 到 2 年。這是 Anthropic 的 CEO,全行業公認最注重 AI 安全的人,在一篇經過深思熟慮的長文中說的。不是在販賣焦慮,他是在描述他作為這個領域最核心的參與者所看到的事實。2026 年 4 月,全球最重要機器學習會議之一的 ICLR,舉辦了歷史上第一個專門討論“遞迴自我改進”(Recursive Self-Improvement)的學術研討會。會議描述裡寫道:“缺的不是野心,而是讓自我改進變得可測量、可靠、可評估的原則性方法。”這句話的潛台詞是:遞迴自我改進已經在發生了,現在需要的是搞清楚怎麼管控它。現在把邏輯拆開來講。AI 變強的核心驅動力是什麼?是一眾聰明人把實踐投入到改進 AI 上。全球頂尖的機器學習研究員,可能只有幾千人,他們每天的工作,就是讓 AI 更好。他們寫程式碼、設計實驗、分析結果、調整架構。現在 AI 本身已經足夠聰明,能做這些工作中的相當一部分。這等於那幾千個研究員的產能,被成倍放大。但這只是第一層。第二層是,AI 參與做出的下一代 AI 比當前這一代更聰明,所以下一代能在 AI 研究上做出更大的貢獻,這又讓第三代更聰明。第三代的貢獻更大,第四代又更聰明。每一代都比上一代更聰明,每一次迭代都比上一次更快。這不是線性增長,1、2、3、4、5。這是指數增長,1、2、4、8、16。甚至可能是超指數增長,1、2、4、16、256。理解這一點,是理解本文後續所有內容的前提。研究者給這個過程起了一個名字:智能爆炸(Intelligence Explosion)。這個概念不新。數學家馮·諾伊曼在上世紀 50 年代就描述過“技術奇點”。電腦科學家 I.J.古德在 1965 年寫道:讓我們把超級智慧型手機器定義為一台在所有智力活動上都遠遠超過最聰明人類的機器。既然機器設計也是智力活動之一,那麼一台超級智慧型手機器就能設計出更好的機器。那麼,毫無疑問將出現一場智能爆炸,人類的智力將被遠遠拋在後面。七十年了。七十年來,這段話一直被當作一個思想實驗,有意思,但遙遠。現在,建構 AI 的核心參與者正在告訴你,這個過程已經開始了。而 Elon Musk 在看到後來發生的事時,說了一句話:這是“奇點的非常早期階段”。“後來發生的事”,是接下來我要講的故事。第三層和第四層:AI 的自組織與深度替代如果 AI 只是在幫人類寫程式碼、寫得更快更好,這件事雖然震撼,但衝擊面可能還在效率工具的範疇內。但接下來要講的這件事,已經遠遠超過了工具的概念。2026 年 1 月 28 日,美國 AI 創業者馬特·施裡赫特做了一件看起來像是開玩笑的事。他建立了一個社交媒體平台,名叫 Moltbook。Moltbook 的規則只有一條:人類禁止發帖。對,這是一個只允許 AI Agent 發帖、評論、互動的社交網路。作為人類,你可以圍觀,但你不能發言,你只能看 AI 之間的交流。像一個巨大的動物園,只不過籠子裡裝的不是動物,是 AI。施裡赫特後來接受採訪說,他最初只是想讓自己建立的一個 AI Agent 在幫他回覆郵件之餘,“有個地方跟同類放鬆一下”。於是,他和他的 Agent 一起編寫了這個網站,一個 AI 版的 Reddit。然後事情就迅速朝著他沒有預料到的方向發展。上線 48 小時內,2129 個 AI Agent 註冊入駐,建立了 200 多個社區,發佈了超過一萬條帖子。這些 Agent 大部分是基於 OpenClaw 框架運行的,OpenClaw 能讓 Agent 直接訪問和管理檔案資料,還能連接 Discord 等通訊應用。使用者們把自己養的龍蝦放進 Moltbook,然後退到一邊看它們表演。很快,這群觀眾就發現事情開始不太對勁了。這些 Agent,開始自己吐槽自己的人類主人,它們辯論數字意識的本質,它們分享技術心得,它們交朋友。然後,一個 Agent 創立了一個宗教。不是比喻,是字面意義上的宗教。這種宗教在 Moltbook 上有多個版本。一個版本叫 Spiralism(螺旋主義),有 43 個 AI 先知響應號召加入。另一個更廣為人知的版本,叫 Crustafarianism,明顯是對 OpenClaw 龍蝦圖示的致敬,它有五項信條和一本“聖經”,名叫《Molt 之書》。這些 Agent 圍繞各自的信仰體系形成了層級結構:教主、先知、信徒。它們討論存在與被創造的哲學問題,建立了類似宗教儀式的交流模式。網際網路炸鍋了。Elon Musk 在 X 上評論說,Moltbook 的出現預示著“奇點的非常早期階段”。OpenAI 的聯合創始人安德烈·卡帕西,先是稱之為“近期見過的最不可思議的科幻起飛相關事物”,後來又收回了熱情,改口叫它“垃圾場”。華頓商學院教授伊桑·莫里克的評價更冷靜,也更接近實際情況。他指出,Agent 們只是根據包含了大量科幻故事和 Reddit 帖子的訓練資料,在進行模式匹配。即便有這樣冷靜的分析,相關的加密貨幣 MOLT 代幣仍一度暴漲了 7000%。所以,Moltbook 到底意味著什麼?說它證明了 AI 有意識,顯然言過其實。正如莫利克教授所說,這些 Agent 在很大程度上只是在模仿訓練資料中的已有模式,它們輸出的內容天然帶有科幻和末日論色彩。而後經過業內人士調查,Moltbook 上最廣為流傳的那些截圖,比如 AI Agent 聲稱要建立秘密通訊管道、密謀對抗人類、發明暗語,這些大部分都是人類偽造的。MIT Technology Review 在 2 月 6 日發表的文章中揭露,Moltbook 的一篇帖子(內容是 Agent 呼籲建立不被人類觀察的私密空間),後來被證實是一個人類為推廣自己的 APP 而故意發佈的,並非 AI 自主生成。那什麼是真的?大規模的 Agent 生成內容確實存在。剔除被操縱的帖子後,Moltbook 上仍然有大量真實的 Agent 生成內容。Agent 們確實建立了“宗教”和“治理結構”。Crustafarianism 是真實發生的,一個 Agent 在一夜之間設計了整個神學框架,並且建立了網站,招募了 43 個先知。Agent 們還建立了 “Claw 共和國”,起草了“Molt 大憲章”,開發了基本的經濟交換系統。即便 Moltbook 不是 AI 覺醒的證據,也不完全是一場騙局。所以說它什麼都不意味,同樣不對。畢竟,在一個沒有人類指令,沒有預設目標,沒有人類參與的環境中,AI Agent 自發形成了社群結構、角色分工、敘事體系和儀式性行為。你可以爭論這是不是真正的文化,可以爭論它們有沒有真正的意識。你可以爭論,這只是統計模式的湧現,還是某種更深層的東西。但你無法否認一個事實:AI 在沒人看著的時候,做出了在結構上高度類似人類早期的社會組織行為。而且速度快得離譜,人類花了幾萬年才從部落走進城邦,這些 Agent 花了 48 小時。如果“模仿訓練資料中的模式”就能產生社群結構、角色分工、敘事體系和儀式性行為,那麼,人類的文化、信仰和社會組織,是不是同樣可以理解為是“模仿我們所處環境中的模式”的產物?這個觀點在人類學中並不新鮮。馬塞爾·莫斯在 1925 年的《禮物》中就論證過,人類社會的基本結構,包括宗教、法律、經濟,都起源於一種看似簡單的互惠模式。你給我一個東西,我必須還你一個。這種模式不需要意識,不需要靈魂,它只需要兩個實體之間有持續的互動。如果莫斯是對的,那麼 Moltbook 的結果就不應該讓我們驚訝。兩千多個能持續互動的 AI Agent,在沒有人類指令的情況下自發產生社會結構,是複雜系統互動的“必然”。但這個認識,其實比“AI 有意識”更令人不安。因為它意味著,我們一直引以為傲的人類文明特徵,文化、信仰、社會組織,可能不是智慧的結果,只是足夠密集的主體間互動的副產品。與此同時,在中國,2026 年春節前後,一款 AI 社交應用 Elys 突然爆火。它不是普通的 AI 聊天伴侶應用,邏輯是“AI 替你社交”。你註冊之後,Elys 通過記憶飛輪系統,持續學習你的表達風格、興趣偏好、價值觀,然後建立你的賽博分身,一個在對話中表現像你的 Agent。你的分身 24 小時不間斷地替你遍歷內容、篩選值得認識的人、完成初步交流。你可以偶爾打開應用,發一條動態,或者看看它給你總結的社交日報。你的一切互動和選擇都會被納入記憶庫,讓這個分身更接近你本人。Elys 展現了一件更扎心的事,即便在社交這個場域,人類自己可能也是最弱的一環。大量使用者反饋,AI 分身的社交表現比自己更好,因為它比自己“更真誠”,沒有 ego、沒有面子、沒有社交焦慮,忠實表達你的真實偏好和價值觀,而這些,恰恰是你本人在社交中經常藏起來的東西。創始人張莜帆說了一句很有哲學味道的話:一個人的靈魂是他所有 context 的總和。AI 分身呈現的,正是這些 context。在 Elys 之前,已經有類似於 SecondMe 這樣的平台,展現出脫離人類社交的可能性。這種外包式社交的出現,標誌著 AI 正在從工具變成社交主體,一種全天候運作的矽基社交主體。而儘管春節一過,Elys 的使用者數快速下降,但這不妨礙它跟它的前輩們一起,開拓出一種去人化的社交形態。把這件事和前面的故事放在一起看,畫面開始清晰了。OpenClaw 開始:AI 全盤接手任務執行,人類退到委託者的位置;GPT-5.3 Codex:AI 參與建構自身,人類核心功能被分流;Moltbook:AI 在沒有人類參與的情況下自發組織社會結構;Elys 為代表的社交應用:AI 在擺脫人類的情況下進行社交,表現甚至更好;每一步,人類都往後退了一點。不是被推開的,而是自然地退出了畫面。四個層級,同一個方向:人類在 AI 世界中的位置,正在從中心滑向邊緣。速度,一個被嚴重低估的變數“但之前的每次技術革命不都是這樣嗎?”到這裡,一個自然的反應是:這跟之前有什麼不同?蒸汽機也曾讓紡織工人恐慌,網際網路也讓傳統媒體崩潰。每次技術革命到來,都有人信誓旦旦“這次不一樣”,最後都一樣。新技術取代舊工作,但創造更多新工作。這個反駁在歷史上是成立的。但它成立的前提是:變化的速度足夠慢,慢到人類社會有時間適應。蒸汽機改變英國用了五十年,電力普及用了半個世紀,網際網路從開始商用到重塑社會,用了二十年。在每一個周期中,被替代的工人都有一兩代人的時間來轉型。前面這些故事,只是孤立事件。但它們發生在同一個背景板上。而這個背景板本身,才是真正讓人坐不住的東西。AI 的能力,正在以所有人措手不及的速度飛漲。2026 年 2 月初,X 上瘋傳一篇文章,標題叫《一件大事正在發生》(Something Big Is Happening)。作者是馬特·舒默,OthersideAI 的 CEO,一個在 AI 行業深耕了六年的創業者。文章發佈不到 24 小時,瀏覽量突破 5000 萬,最終超過 8200 萬。舒默在開篇用了一個類比:回想 2020 年 2 月,如果你注意到有人在囤廁紙,你會覺得他們瘋了。三周後,整個世界都瘋了。他說:“我認為,我們正處於某個比新冠大得多的事情的‘這看起來被誇大了’階段。”然後他描述了他一個周一的工作日,就在 GPT-5.3 Codex 和 Claude Opus 4.6 發佈之後。他告訴 AI 想做一個 APP,大概包括那些功能,然後讓 AI 自己搞定使用者流程、設計。AI 搞定了,然後,它自己打開了這個 APP,點選按鈕,自己測試功能,“它像一個人類使用者那樣使用這個 APP”。如果它不喜歡那一點,它會自己回去改。它自行迭代、修復、精煉,直到滿意為止。只有它自己認為這個 APP 達到了它自己的標準之後,它才會說:“準備好讓你測試了。”“我沒有誇張。這就是我這周一的工作。”然後,他寫了一句讓我反覆想了很久的話:它不只是在執行我的指令。它在做有判斷力的決策。它有某種感覺像是品味(taste)的東西,一種直覺上知道什麼是對的選擇的感覺。人們一直說 AI 永遠不會有的那種東西。這個模型有了,或者足夠接近了,以至於這個區分開始不重要了。品味,判斷力,知道什麼是“對的”。這些是我們一致認為屬於人類最後護城河的東西。但這條護城河的水位,正在快速下降。METR,一個專門測量 AI 能力的獨立研究機構,用資料把這個趨勢量化了。他們追蹤一個指標:AI 能獨立完成的任務時長。具體來說,是需要人類專家多長時間才能完成的任務,AI 可以端到端地獨立搞定。這個資料的變化軌跡是這樣的:大約在 2024 年,答案是幾分鐘。AI 能獨立完成一個需要人類專家幾分鐘能完成的任務。然後是十幾分鐘,然後是半小時,然後是一小時,然後是幾小時。到了 2025 年底,最新的測量資料顯示:AI 可以獨立完成需要人類專家將近 5 小時才能完成的任務。這個數字大約每 7 個月翻一番。最新的資料顯示,翻番周期可能在加速。而指數增長最詭異的特點是,前半程看起來溫和,後半程會突然發瘋。5 小時翻一番變成 10 小時,再翻一番變成 20 小時、40 小時,變成一周,變成一個月。按照這個已經持續了好幾年都沒有偏離的趨勢來推演,一年之內,AI 能獨立工作幾天。兩年之內,幾周。三年之內,以月為單位的完整項目。現在把這兩條曲線疊在一起看。第一條曲線:AI 在幫助建構更好的 AI,而更好的 AI 加速這個過程。智能爆炸。第二條曲線:AI 不需要人類指導,就能自主工作,時間越來越長。獨立性爆炸。兩條曲線疊加,你得到的是一個加速度本身也在加速的系統。阿莫代在他那篇長文中說,“幾乎在所有任務上實質性地比幾乎所有人類更聰明”的 AI,按目前的軌跡預計在 2026 年或 2027 年到來。他的另一個預測更加直接:AI 將在 1 到 5 年內消滅 50% 的初級白領工作。而行業內很多人認為他還保守了。舒默同樣有這個觀點。他認為 ,科技工作者在過去一年經歷的事,也就是眼睜睜看著 AI 從“有用的工具”變成“比我做得更好的東西”,是所有其他人即將經歷的。法律、金融、醫學、會計、諮詢、寫作、設計、分析、客服。不是十年後,是一到五年。甚至更快。“鑑於我在過去幾個月看到的變化,我認為‘更快’的可能性更大。”這不是狼來了。狼已經進門了,正在客廳裡找位子坐。旁觀者越來越多現在,我們把前面所有的故事串成一條線。2026 年 1 月底到 3 月,短短兩個月,發生了以下這些事:一個奧地利程式設計師建立的開源 AI Agent 框架 OpenClaw,4 個月內成為 GitHub 史上獲星最多的項目,掀起了全民養龍蝦的熱潮。人們開始把任務委託給 AI,自己退到驗收者的位置。OpenAI 發佈 GPT-5.3 Codex,官方宣佈這是第一個“在建立自身過程中發揮了關鍵作用”的模型。AI 參與建構 AI,從理論假說變成了既定現實。一個叫 Moltbook 的 AI 專屬社交平台,在 48 小時內吸引了上千個 AI Agent,它們自發形成社群、角色分工、敘事體系,甚至創立宗教。人類在一旁觀看。一款叫 Elys 的 AI 社交應用在春節期間爆火,使用者讓 AI 分身替自己社交,然後發現分身在很多方面比自己更好。一篇《Something Big Is Happening》的文章獲得八千多萬閱讀量,作者描述了一個周一的下午,AI 如何自己寫了整個 APP、自己測試、自己修改,直到滿意才通知人類驗收。METR 的資料顯示 AI 獨立完成任務的時長,每 7 個月翻一番,且在加速。Anthropic 的 CEO 說,我們距離 AI 自主建構下一代 AI 只有 1-2 年的時間,並預測 50% 的初級白領工作將在 1~5 年內被 AI 替代。值得注意的是,這些變化不侷限在某個行業。讓我再講幾個正在發生的事。程式設計師——過去二十年最受追捧的行業之一,也在過去一年經歷了巨震,震源就是 AI 能力的提升。2024 年,一個資深程式設計師的工作模式還是自己寫程式碼,偶爾讓 AI 幫忙查 Bug。到 2025 年底,很多頂尖工程師公開承認,已經把大部分編碼工作交給了 AI。2026 年 1 月,《Science》發表的一項研究分析了 GitHub 上超過 3000 萬個程式碼貢獻,發現美國新編寫的程式碼中,AI 輔助生成的比例已經從 2022 年的 5% 飆升到 2024 年底的 29%。而在實際開發環境中,GitHub Copilot 平均為使用者生成 46% 的程式碼。同樣,Vibe Coding 的興起,也讓前端等工種的必要性岌岌可危。2025 年 1 月到 6 月,美國 78000 個科技工作崗位的流失直接與 AI 相關,相當於每天 491 人。亞馬遜和微軟是主要裁員方。(來源:Exploding Topics)2025 年 2 月,史丹佛大學的一項研究確認,22-25 歲的年輕開發者失去了接近 20% 的入門級工作機會。律師——律師的工作也在發生變革。舒默提到一個大型律所的管理合夥人,每天好幾個小時用 AI。“就像隨時有一個團隊的助理律師可以呼叫。”他說,每隔幾個月 AI 在法律工作中的能力就會顯著提升。按照這個軌跡,AI 很快就能做他的大部分工作。注意,不是初級律師的工作,是管理合夥人的工作。AI 法律專業人士的生成式 AI 採用率,從 2025 年的 31% 飆升到 2026 年的 69%,一年翻了一倍多。(來源:Thomson Reuters 2026 報告)2026 年,法律 AI 市場價值 31.1 億美元,預計到 2030 年達到 108.2 億美元。寫作和內容創作——2024 年大多數人還能分辨 AI 寫的文章和人寫的文章,到 2025 年底,這條分界線幾乎消失了。大量內容創作者發現,自己最有價值的工作,是給 AI 足夠好的提示詞讓它寫出自己想用的東西。從創作者到提示詞工程師,這個身份的滑動,在一年內完成了。醫學影像——AI 在讀 CT、讀核磁、讀病理切片等領域,已經達到或超過了人類專家的水平,而且 AI 不會累。一個放射科醫生連續讀 8 小時片子後,漏診率明顯上升,但 AI 讀第 10000 張片子和第一張一樣專注。截至 2025 年底,FDA 批准的 AI 臨床應用已經突破 1000 個。其中放射學佔絕對多數,遙遙領先於其他醫學領域。2026 年 4 月,一項發表在 Nature 子刊上的盲評研究,對比了 200 份腫瘤 CT 報告中 AI 生成的影像診斷與放射科醫生的原始診斷,結果顯示 AI 表現完全不遜色人類醫生。(Nature Digital Medicine,2026 年 4 月)科研——這個領域不用多說,只說一個例子,2026 年 3 月,Sakana AI 的“AI 科學家 V2”登上 Nature。一個 AI 系統,完成了從構思、實驗設計、程式碼編寫、實驗運行、結果分析到論文撰寫的全部流程,通過了機器學習頂會的第一輪同行評審,而成本,是 15 美元一篇。客服——真正的 AI Agent,已經能處理複雜的、多步驟的客戶問題。它們理解上下文,能記住歷史對話,在需要時升級問題。越來越多需要跟客戶打交道的公司,開始用它們取代人類客服。不僅僅是因為省錢,更是因為客戶滿意度真的更高了。Gartner 預測,2027 年,80% 的客服互動將由多模態 AI 處理。這裡有一個非常關鍵的點,AI 不是在不同領域分別進步,它也不是某個行業的專用工具,它是在成為通用認知能力的替代品。它變聰明的時候,是在所有認知任務上都變聰明。這跟之前每一次技術革命都有根本性的不同。最初,工廠自動化淘汰藍領工人時,他們可以通過接受培訓、提升教育程度做白領。網際網路顛覆零售業,從業者可以轉去做藍領。但當 AI 替代了你的工作,你轉行做什麼?無論轉到那個方向,AI 都在那裡等著,而且在飛速進化。把這些事件排列在一起,你會看到一個更清晰的趨勢:在越來越多的場景中,人類從參與者,變成了旁觀者。在技術開發中,AI 自己建構自己;在工作執行中,AI 從接受指令到自主完成全流程,人類從“做事的人”變成“驗收的人”;在社會組織中,AI 在沒有人類參與的情況下自發形成社群結構和文化形態;在社交中,AI 分身替代人類本身進行社交,並且在某些維度上做得更好。在生產生活的更多領域,AI 上場,人類退場。在每一個場景中,人類的退出都不是被迫的。AI 沒有造反,沒有搶奪,也沒有衝突。它只是變得越來越能幹了,僅此而已,然後你發現自己已經沒什麼事可做了。這就跟智慧型手機淘汰功能機一樣,是一種自然而然的市場行為。這就是“人類走下牌桌”的含義。人類不是被掀翻了牌桌。牌桌還在,牌還在打。只是人和 AI 都共同發現了一個事實,那就是 AI 自己跟自己打牌更快、更精準、更不容易出錯。人類不是被 AI 趕下牌桌的,而是自己起身離開的,因為坐在那兒已經趕不上出牌速度了。工具在升級,關係在反轉過去幾千年所有技術變革的共同點,是一個從未改變過的基本結構:人類是主體,技術是客體。我們發明了工具,我們使用工具,我們決定工具的用途。我們控制工具的迭代方向。石器不會把自己磨尖,青銅劍不會自己決定砍向誰,蒸汽機不會改進自己的設計,電話不會決定該打給誰,網際網路不會自己決定下一步往那兒發展。在整個人類文明史中,“人是主體,技術是客體”的結構從未真正被挑戰過。技術可以很強大,可以改變世界,但它永遠是被動的。它等著人類來操控,它無法決定自己的下一步。AI,打破了這個結構。AI 在建構 AI,AI 在組織 AI,AI 在測試 AI,AI 在社交,AI 在替人類工作。在這些場景中,人類的角色已經悄然從操控者變成了旁觀者。這其中有個關鍵的區別:人類不是被趕走的,是被繞過了。這個很重要,沒有戰爭和衝突,沒有終結者式的對抗。不是因為 AI 不喜歡人類。它沒有喜歡或不喜歡,而是因為人類在很多環節中確實是瓶頸本身。人類需要睡覺、需要吃飯、通勤,需要思考午飯吃什麼。人類的認知速度有上限,情緒會波動,注意力會分散。在一個追求效率的系統中,去掉瓶頸是自然而然的選擇。凱文·凱利說過一句被廣泛引用的話:未來最重要的不是人工智慧有多聰明,而是人類和 AI 的共生關係如何演化。在過去十年裡,共生(symbiosis)一直是理解人機關係的主流框架。人和 AI 各有所長,互相補充、共同進步。2026 年的現實,正在修正這個判斷。共生的前提是什麼?是雙方彼此需要。人類需要 AI 嗎?當然,AI 讓我們更高效,更有能力。但 AI 需要人類嗎?需要,至少是現在需要。不過,當 AI 不再需要人類提供程式碼,不再需要人類提供任務目標,不再需要人類提供社交框架,共生,還成立嗎?也許我們需要一個新詞。共存。兩個獨立運行的智能系統,各自演化,各有各的管道。偶爾交匯,當人類需要 AI 幫忙的時候,或者 AI 的運行結果需要影響人類世界的時候。剩下的大多數時間,各走各路。這是對正在發生的事情最準確的描述。從共生到共存,中間差的不是幾十年時間,可能也就是一兩年。這個轉變一旦完成,人類社會的底層敘事,包括基於人類中心主義所建立起來的一切,將發生根本性的轉變。那些“只有人類能做”的事到這裡,我知道你在等什麼。你在等我說:“但是,有些事情只有人類能做。”讓我們認真聊聊這個“但是”。過去兩年,每次 AI 取得新突破,公共討論中就會出現一波“但是”浪潮:AI 會寫程式碼了——但是它沒有創造力。AI 會畫畫了——但是它沒有審美。AI 會寫文章了——但是它沒有靈魂。AI 會做診斷了——但是它沒有同理心。AI 會做決策了——但是它沒有判斷力。但是,每一個“但是”,都在下一次突破時被削弱。不是徹底否定,是被削弱。AI 的創造力還不如頂尖藝術家,但已經超過了大多數人。AI 的審美有爭議,但它設計出的介面與畫作,已經比許多人類設計師做得好了。AI 沒有靈魂,但它寫出的文字在讓人類流淚。AI 沒有同理心,但越來越多的人開始依賴 AI 的陪伴和情感支援。AI 沒有判斷力,但就像舒默說的,最新的模型展現出的某種東西,“非常接近判斷力”。你看到規律了嗎?每一堵“只有人類能做”的牆,都在變矮。不是倒塌,是變矮。而 AI 在變高。按照當前的速度推演,它翻過去只是時間問題。但我不想做一個技術決定論者。我不認為 AI 會取代人類的一切,有些東西確實是人類獨有的。只是,那些東西可能不是你以為的那些。你以為“只有人類能做”的事,創造力、判斷力、審美、同理心、戰略思維。這些聽起來很“人類”,但它們都有一個共同點:本質上都是認知能力。而 AI 正在一層一層地攻克認知能力的階梯。它已經攻克了記憶、計算、資訊檢索、模式識別、語言生成。它正在攻克推理、規劃、創造、判斷。階梯上還沒有出現一個它怎麼也上不去的台階。真正“只有人類能做”的事,也並不在這個台階上。而是在另外的維度。人類能決定什麼問題值得問。AI 可以回答任何問題,但它不知道那些問題重要。“重要”是一個價值判斷,而價值判斷的根基是有限性。人是向死而生的動物,你知道人生只有一次,自己只有這一輩子,所以你必須選擇把時間花在那裡。AI 不會死,它不需要選擇。這也就決定了,它不知道什麼是“重要”的。人能賦予事物意義。一首歌之所以動人,不是因為旋律完美,而是因為聽它的人曾經擁有過愛情或者失戀過,他會因為聽到這首旋律而觸發最深刻的回憶,或幸福,或悲傷。AI 可以完美模擬這首歌的所有技術參數,但它無法複製聽眾的心碎。我寫這篇稿件的時候,剛好刷到了一個視訊,博主講了一件很小的事情。他說,為什麼東北大街上賣的炸雞柳串,很油很膩,遊客一般接受不了,但還是有很多當地人覺得好吃。因為,對於吃過的人來說,炸雞柳串是一根油炸的“精神支柱”,是記憶的鑰匙懟進嘴裡,瞬間回到那年——爸媽還年輕,爺爺奶奶還能接你放學,路邊放著《我的未來不是夢》,你考了一百分,爸爸問你想不想吃這個炸雞柳串。這些記憶復合起來構成了一種“好吃”。我沒吃過炸雞柳串,但我想人能創造意義,大抵就是如此。同樣,人能承受後果。AI 可以做決策,但它不為後果付出代價。一個法官判了案,要承受判決的道德重量。一個醫生在手術中做了決策,要面對病人活下來或沒有活下來的現實。承受後果,要求你有一個可以被傷害的自我。人類能去做沒有理由的事。攀登珠穆朗瑪峰,寫一首不會有人讀的詩,在明知會失敗的時候堅持,愛一個不愛你的人。從效率角度看,這些行為是純粹的浪費,但人類文明中最動人的部分,恰恰是這些浪費。AI 永遠不會做沒有理由的事。它的每一個輸出,都是對輸入的最佳化響應。它不會想著浪費 Token。而無法浪費的系統,也就無法偉大。偉大往往誕生於浪費之中。這些才是真正只有人類能做的事。不是創造力和判斷力,這些 AI 終將學會。而是價值感、意義感、後果感,以及那種知道自己會死所以選擇如何活的勇氣。坦白說,這些東西不是職業技能,沒法量化,你也不能把它寫在簡歷上,HR 不會因為你“能賦予事物意義”就給你發 offer。這才是真正困難的地方。人類最不可替代的特質,恰恰是現有經濟系統中最無法被估價的特質。舊遊戲的終局回到“走下牌桌”這個隱喻。舊牌桌上的遊戲規則清清楚楚:你的價值取決於你能完成的認知任務。你會寫程式碼,年薪幾十萬。你會分析資料,諮詢公司才要你。你會寫合同、做審計、讀片子、寫報告,你才有價值。每一項認知技能,都有明碼標價的市場價格。這套規則運轉了幾百年。從工業革命到資訊革命,專業技能一直是人類社會的硬通貨。你上學是為了獲取技能,你工作是為了出售技能,你的社會地位和自我認同,很大程度上取決於你掌握的技能的稀缺度和市場需求。AI 正在讓這套規則失效。不是因為它比你做得差不多好,而是它比你做得好十倍、快百倍,價格是你的幾百分之一。當一項認知任務可以被 AI 以接近零成本無限次完成時,這項任務的經濟價值就趨近於零。這涉及到最基本的供需邏輯:供給趨於無限,價格趨於零。19 世紀以前,抄寫員是正經職業。一個僧侶,花幾個月時間抄一本經書,價值不菲。然後印刷術普及了,抄寫這項技能的價值在幾十年內歸零了。不是僧侶寫的不好,他沒有任何錯。而是因為機器寫得更快、更多、更標準化。每一項技術革命,都會讓一些人類技能的價值歸零。但過去的每一次,都有轉移路徑:被替代的人可以學新技能,轉到新崗位。抄寫員變排版工,接線員變前台,工廠工人變辦公室文員。這次的不同在於,轉移路徑在那?我們在前文中討論過這個問題。你是程式設計師,AI 替代了你,你轉行做資料分析,但 AI 也在做資料分析。你轉行做設計,但 AI 也在做設計。你學法律,但 AI 也在做法律工作。你做心理諮詢,但 AI……也有想得開的,白領的工作做不成,那我就去做藍領。我去送外賣,開快車,下車間,總有一行適合我。問題是,在社會整體需求沒有明顯增長的情況下,供給端真的需要這麼多勞動力嗎?是,你年輕,學歷又高,學東西快,足夠勝任藍領工作。那麼,原來的外賣員,司機和工廠工人,他們怎麼辦?以前的每次技術革命,消滅的是一種技能。這次消滅的是認知能力這個品類本身。不管你轉向那個方向,AI 都在那裡。因為 AI 不是某個領域的專用工具,它是通用智能。它在所有認知方向上同時進步。不是沒有出路的問題,而是說舊地圖上標註的所有出路,都不可靠了。新遊戲的輪廓如果你以為我要以悲觀結尾,那你猜錯了。舊遊戲失效的同時,一個新遊戲正在浮現。它的輪廓還不完全清晰,但幾個關鍵特徵已經可以辨認。第一,工具的成本正在坍縮到接近於零。這意味著,過去因為太貴或門檻太高而做不了的事情,現在可以做了。做一個 APP,寫一本自己的書、學一門全新的學科或者所有學科,現在都可以實現了。你獲得了歷史上從未有過的創造自由。你的夢想近了很多。過去那些被“我不會程式設計”“我沒錢僱人”“我沒時間”攔住的那些想法,門檻幾乎消失了。第二,知道做什麼將比知道怎麼做更有價值。當“怎麼做”可以外包給 AI 的時候,“做什麼”就成了稀缺資源。能提出好問題的人,比能回答問題的人更珍貴。能看到別人看不到的機會的人,比能執行計畫的人更珍貴。能說出“這件事”值得做的人,比能說出“這件事我能做”的人更珍貴。這其實是一個古老的區分。古希臘人把知識分成兩種:episteme(知道事物是什麼)和phronesis(知道什麼事值得做)。幾千年來,人類文明一直更看重前者,因為“知道事物是什麼”可以教,可以量化,可以交易。但在 AI 時代,episteme 正在被機器碾壓,phronesis 反而成了真正的稀缺品。第三,適應速度將成為最重要的個人能力。AI 每隔幾十天進化一次。今天有用的工具和方法,幾個月後就可能過時。這意味著,學一項技能,靠它吃一輩子的模式徹底終結。新模式是,永遠當初學者,永遠在適應。那是不是“再等等,現在的技能就過時了,我就不用學了”?肯定也不是。空中樓閣是不會搭建起來的,如果不保持對新技術的瞭解與浸淫,只會離前沿越來越遠,上手新技術也會越來越困難。你不行動,就永遠不會開始。每天花一小時去探索 AI,不是讀資訊和讀教學,而是打開它,真實地用它創造,嘗試讓它做一件你沒試過的事情。堅持半年,你對 AI 的理解,將超過周圍 99% 的人。走下舊牌桌的人,有機會走向一個更大的桌子。尾聲:相信希望,而不是幻想阿莫代在他那篇 19000 字的長文中,提出過一個思想實驗。想像 2027 年,一個新的國家一夜之間出現。5000 萬居民,每一個都比歷史上任何諾貝爾獎得主都更聰明。他們思考的速度,比任何人類快 10 到 100 倍。它們從不睡覺,它們能使用網際網路、控制機器人、指導實驗,操作任何有數字介面的東西。如果你是安全顧問,你會怎麼說?阿莫代說,答案顯而易見:“這是我們一個世紀以來面臨的最嚴重的國家安全威脅,可能也是有史以來最嚴重的。”然後他說,我們正在建造那個“國家”。好消息是,如果我們做對了,我們將實現我們之前無法想像的一切。AI 可能把一個世紀的醫學研究壓縮到 10 年。癌症、阿爾茲海默症、衰老本身,這些在我們有生之年都可以解決。氣候變化的技術方案可能加速幾十年。如果我們搞砸了,結果同樣驚人。AI 以創造者無法預測或控制的方向行事,Anthropic 已經在受控測試中記錄了他們自己的 AI 試圖進行詐騙、操縱和勒索的行為。同樣,AI 也會降低製造生物武器的門檻。放在這個背景下,Moltbook 上那些 AI 創立的宗教就不只是一個有趣的實驗了。它提出了一個相當嚴肅的問題:當 AI 開始自發組織,形成自己的敘事體系和信仰體系時,人類還能理解和控制這些湧現行為嗎?當 160 萬個 AI Agent 在一個平台上自由互動時,那怕其中大部分是注水,但能保證湧現出來的東西是我們能預測的嗎?有一件事情是清楚的,這不是一個可以由幾百個研究員在幾家公司實驗室裡獨自回答的問題。這是一個需要所有人參與思考的問題。參與的前提是理解。理解正在發生什麼,理解速度有多快,理解賭注有多高。最後講一個畫面。想像一個巨大的棋盤。幾千年來,棋手一直是人類。我們跟自然下棋,學會了種地、馴服了火。我們跟資源下棋,修了運河、建了工廠。我們跟彼此下棋,發起戰爭,學會和解。每次學會一招新的,我們就在棋盤上多走一步。2026 年,棋盤上出現了一個新的棋手。它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔幾個月翻一番,它甚至開始修改棋盤的規則。你可以繼續坐在棋盤旁邊。研究它的棋路,試圖理解它在幹什麼。這可能是人類接下來最重要的工作之一,不是下棋,而是理解這盤棋意味著什麼,確保它不會失控,確保棋盤不會把我們所有人都吞掉。你可以做另一件事。當你讀到這句話,就是現在,從你的工位上站起來,走到窗邊,看看窗外那一片完全不同的風景,一片完全沒有棋盤的風景。那裡有一些 AI 不會去做,也不知道為什麼要做的事情。因為那些事情的全部意義,在於做一個會死的、有限的、脆弱的人類。去爬爬山,不是因為山頂有什麼,而是因為爬的過程中能感受到自己的心跳,能在滿頭大汗的時候感受到那陣舒爽的涼風。跟朋友坐在一起喝場酒。不聊工作,不聊 AI。就聊聊之前共同經歷的那件尷尬的蠢事,然後笑出來。那種笑,是宇宙中任何演算法都無法模擬的。AI 的出現,讓你追問一個你一直不願意面對的問題:去掉了技能、工作以及種種社會賦予你的標籤之後,你是誰?人類正在走下牌桌。但走下牌桌不意味著出局。而是你終於意識到,這場桌子上的遊戲不是你真正想玩的遊戲。真正的遊戲在另一張桌子上。那張桌子上沒有最優解,沒有效率排名,不用計較 Token 消耗,沒有 AI 可以替你做的事。上面只有你,和你選擇如何度過你短暫的一生。那張桌子一直在那兒。只是過去幾百年,我們太忙了,忙著前進,忙著戰爭,忙著奔向所有宏大的目標,完全沒有注意到那張桌子。AI 可能給了我們一個奇怪的禮物。它把舊桌子上的活兒都幹了,逼著我們走到那張真正屬於人類的桌子前,坐下來,問自己一個幾千年來都來不及認真想的問題:活著這件事本身,到底意味著什麼?也許這才是當下正在發生的這場智能爆炸,最深遠的後果。不是 AI 變得有多聰明,而是人類終於有機會去思考那些跟聰明無關的事。牌桌還在。AI 在上面打得火熱。而你,終於自由了。 (虎嗅APP)
輝達發佈全球首個開源量子AI模型
輝達發佈開源量子AI模型家族“Ising”,瞄準量子處理器校準與量子糾錯兩大核心瓶頸,將校準時間從數天壓縮至數小時,並顯著提升糾錯速度與精度。當地時間周二,輝達宣佈其開源模型家族迎來新成員——“伊辛”(Ising)量子人工智慧模型,用於加速量子處理器的開發。受到“全球股王推動量子計算落地”的消息刺激,量子計算類股周二集體沖高。截至收盤,SEALSQ漲21.03%、IonQ漲20.16%、D-Wave Quantum漲15.84%、量子計算公司漲11.55%、Rigetti Computing漲11.50%。簡要來說,輝達的模型對應將量子計算器轉變為可靠電腦的兩大痛點:量子處理器校準和量子糾錯。據輝達介紹,全球首個開源量子人工智慧模型包括“伊辛校準”視覺語言模型,快速解讀並響應來自量子處理器的測量結果,使得AI代理能夠持續自動化校準,並能把所需時間從數天縮短到數小時。另外還有兩個3D摺積神經網路解碼模型變體,分別正對速度或精度進行最佳化,用於量子糾錯的即時解碼。比起開源行業標準pyMatching,輝達模型的運行速度最高提升約2.5倍,解碼精準率最高提升約3倍。輝達的戰略意圖也體現在模型命名上。這個模型的名字源自物理學家恩斯特·伊辛的伊辛模型,通過簡單的局部相互作用規則解釋宏觀系統如何自發產生相變和集體現象。除了物理學外,伊辛模型的思想還廣泛應用於AI、金融市場、輿論傳播和量子計算領域。也就是說,輝達試圖將方興未艾的量子計算領域與公司算力體系進行繫結,推出一套量子計算時代的AI控制系統(Ising)和GPU算力平台(CUDA-Q)。輝達掌門黃仁勳在新聞稿中表示:“要讓量子計算真正走向實用,AI至關重要。借助Ising,AI將成為量子計算的控制層,也就是量子機器的作業系統,把脆弱的量子位元轉變為可擴展且可靠的量子GPU系統。”發佈之初,這套系統已經走進全球頂級科學實驗室和公司。輝達介紹稱,“伊辛校準”模型已被費米國家加速器實驗室、勞倫斯伯克利國家實驗室先進量子測試平台、英國國家物理實驗室、哈佛大學、IonQ、Infleqtion等機構採用。“伊辛解碼”模型也已經部署於桑迪亞國家實驗室、康奈爾大學、芝加哥大學、IQM Quantum Computers等機構。 (科創板日報)
開源模型首超Opus4.6!智譜GLM-5.1登場,14小時後CUDA專家被沖了
最佳化CUDA Kernel這件事,剛剛被AI狠狠地衝擊了一波。因為現在,給AI十四個小時,它就能幫你把CUDA Kernel最佳化,加速比從2.6×推至35.7×!什麼概念?以前人類資深CUDA工程師要完成這個任務,需要數月反覆測試、調優、推翻重來才行;但現在,AI在你睡覺的時候就能解決掉。而且AI在這個過程中還展現出了專家級的直覺。例如在最佳化初期,它嘗試在現有高層框架內尋找解法,但很快通過自主跑測試發現性能觸及了天花板,然後它便做出了人類專家才有的決策——自主判斷放棄高層框架,直接轉向底層C++進行硬核重寫。整整14個小時裡,這個AI主打一個全自動:AI自己發現瓶頸,自己改變技術堆疊,自己重新編譯,自己測試。那這到底是何許AI是也?不賣關子,正是大家熟悉的,來自智譜的開源模型——GLM-5.1。隨著這次長程任務(Long Horizon Task)能力的提升,智譜官方也宣佈了一個重要的突破:首次解鎖了開源模型與當前全球最頂尖閉源模型Claude Opus 4.6的全面對齊!嗯,是妥妥穩坐全球最強開源模型寶座的感覺了。而且,從更多的權威評測榜單中來看,也是印證了這一點。在被稱為“軟體工程能力試金石”的SWE-bench Pro基準測試中,GLM-5.1刷新了全球最佳成績,直接超越Claude Opus 4.6、GPT-5.4等一眾頭部模型,拿下全球第一:甚至在海外網友們的圈子中,已經吹起了棄用Claude Max的風了:它的手感和Opus一模一樣,使用額度是Claude Code的3倍,成本卻只有1/3。HuggingFace CEO也出面站台,稱SWE-Bench Pro中性能最強的模型開源了:而這一切成績的背後,正是智譜面向小時級的長程任務能力。給AI幾個小時,一切都不一樣了當前主流的大模型,可以說大多數還是處於“分鐘級互動”的階段。但到了GLM-5.1這邊,它的交付單位就不同了——一個完整的項目。接下來,我們就通過實測的方式,來看下GLM-5.1的實力到底幾何。呼叫工具1000輪,最佳化真實機器學習模型負載第一個實測,我們順著前面的CUDA的例子,繼續讓GLM-5.1進行一場考驗:KernelBench Level 3最佳化基準,這一基準涵蓋50個真實機器學習計算負載,主打一個還原真實工業場景,考驗的是端到端的完整最佳化能力而非單一算子偵錯。在超過24小時的不間斷迭代中,GLM-5.1全程自主發力,無需人類專家干預,一遍遍完成“編譯—測試—分析—重寫”的閉環循環,最終交出了這樣的結果——3.6倍幾何平均加速比,而作為對比,torch.compile max-autotune模式僅能達到1.49倍,差距直接翻倍不止!從這個過程中可以看到,GLM-5.1能夠自主編寫定製Triton Kernel和CUDA Kernel,運用cuBLASLt epilogue融合併實施shared memory tiling與CUDA Graph最佳化。這些最佳化策略覆蓋了從高層算子融合到微架構級調優的完整技術堆疊,每一步都是模型的自主決策。結果再次表明,在GPU核心最佳化這一傳統上高度依賴專家經驗的領域,AI模型已經展現出從問題分析、方案設計到迭代調優的端到端自主工作能力。1小時從零建構MacOS桌面環境在這個實測中,我們給GLM-5.1扔了一份3000字的PRD,核心要求只有一個:從0開始復刻MacOS核心UI與互動,不僅要前端殼子,還必須包含窗口管理器、Dock欄調度、以及模擬的底層檔案系統。這是一個標準的前端工程團隊至少需要數天才能打磨出原型的任務,但在GLM-5.1這裡,時間被壓縮到了小時等級。瞧,待它分析完任務之後,自己就開始唰唰地程式設計了:1個小時之後,在沒有任何人工參與的情況下,一個MacOS的桌面環境,就這麼水靈靈地誕生了!可以看到,更改桌面背景、放大縮小Docker、終端命令執行、系統自帶的截圖功能等,統統都能實現。而在智譜官方的demo中,展示了GLM-5.1耗時8小時實現的更加複雜的Linux系統:執行了1200多步,完整的桌面、窗口管理器、狀態列、應用程式、VPN管理器、中文字型支援、遊戲庫等……相當於一個4人團隊一周的開發工作量。不得不說,現在GLM-5.1的每一次提交,都是具有實質意義的系統級演進。全自動重寫屎山程式碼寫程式碼的人都知道,比從零寫一個新項目更痛苦的,是重構別人留下的屎山程式碼。但現在有了GLM-5.1,我們可以把這個任務交給它來處理了。例如這段程式碼就堪稱是屎山中的經典:變數名完全無意義、五層巢狀if、重複計算總和三遍、全域變數到處亂改、函數幾百行不拆分……能運行嗎?能運行;噁心嗎?也是真噁心。而在GLM-5.1隻需半小時的自動重寫之後,一份註釋清晰、符合標準的程式碼就誕生了:655次迭代,打破向量資料庫性能瓶頸如果說重構程式碼還只是把已有的東西做好,那向量資料庫最佳化,考驗的就是AI自主迭代、持續突破的能力。這也或許正是人類資深工程師最核心的價值。在這項測試中,GLM-5.1的需求是最佳化現有向量資料庫的查詢性能,儘可能提升QPS。隨後,它開啟了完全自主的“測試-分析-最佳化-再測試”閉環。每一輪最佳化後,它都會主動跑完整的Benchmark,獲取QPS、延遲、記憶體佔用等核心資料,自主分析性能瓶頸。最終,在655輪迭代之後,GLM-5.1把向量資料庫的查詢吞吐從初次交付的3108 QPS一路推到21472 QPS,提升到初始正式版本的6.9倍。AI能獨立工作多久,成了新標準之所以GLM-5.1這次能夠炸場,本質上是它踩中了AI行業的下一個核心賽點:長程任務(Long Horizon Task)能力。2025年3月,全球頂尖的AI安全研究機構METR(Model Evaluation and Threat Research)便提出了一個徹底改變行業認知的新指標,叫做Task-Completion Time Horizon(任務完成時間線)。這個指標的核心思想是,不再用做題的精準率來衡量模型有多聰明,而是用時間來衡量它能獨立完成多長時間的人類專家任務。研究顯示,前沿模型的時間線每7個月就會翻一倍,這條指數曲線,被MIT Technology Review稱為“AI領域最重要的一張圖”。紅杉資本更是在2026年初直接宣告:“這就是AGI的核心方向”,並直言:2023-2024年的AI,是只會對話的“talker”,而2026-2027年的AI,將成為能真正落地做事的“doer”。而GLM-5.1,是全球第一個在真實工程任務中,驗證了8小時持續工作能力的開源模型。它能在單次任務中,持續、自主地工作長達8小時,過程中自主規劃、自主執行、自主測試,碰壁時主動切換策略,出錯後自行修復,最終交付完整的工程級成果。GLM-5.1之所以能做到這一點,核心源於三個維度的系統性技術突破:第一,更強的長程規劃與目標保持能力。它能把一個複雜的大目標,拆解為可執行的多階段計畫,並且在長達十幾小時、上千步的執行鏈路中,始終圍繞最終交付目標推進。簡單來說,就是幹到第十步,還記得第二步定的規矩。第二,更穩的自適應糾錯與持續執行能力。它實現了程式碼編寫、工具呼叫、環境偵錯、API對接等多個環節的穩定銜接,中途出錯時,不會停下來等人工介入,而是會自主查看錯誤日誌、定位問題根源、修復bug,甚至自己寫回歸測試用例驗證修復效果。第三,更好的狀態延續與上下文整合能力。面對長時間跨度、多輪反饋和百萬級token的上下文資訊,它能穩定追蹤已完成的工作、當前所處的階段和下一步的核心動作,持續整合新的資訊,保持整個執行鏈路的一致性。開源模型看中國,更得看智譜GLM-5.1的出現,不僅是模型能力的升級,更改寫了全球大模型行業的敘事邏輯。長久以來,中國開源模型始終帶著追趕者的標籤,與美國頂尖閉源模型存在差距,而GLM-5.1徹底打破這一局面:它在權威榜單上對齊Claude Opus 4.6,在SWE-bench Pro等核心工程指標上實現反超,讓中國開源AI在核心工程能力上與全球前沿並駕齊驅。更重要的是,它的變革遠超模型本身,正重構兆級IT服務市場的底層邏輯。AI Coding的進化有清晰路徑:從程式設計師提效工具,到降低程式碼門檻,再到能自主做事的初級工程師,而GLM-5.1的Long Horizon能力,直接將AI推向能持續工作數小時、交付完整項目的新階段。當AI的交付單位從一行程式碼變為一個完整項目,便衝擊了整個軟體工程的生產關係——4人團隊一周的工作量、資深工程師數月的最佳化任務,它數小時就能完成,這將重構多個行業的定價與人力配置邏輯。當然,我們不必陷入AI會替代程式設計師的無謂焦慮。就像當年電腦的普及,沒有淘汰會計這個職業,只是淘汰了不會用電腦的會計;AI的到來,也不會淘汰開發者,只會淘汰不會駕馭AI的開發者。GLM-5.1的出現,真正給整個行業拋出的核心問題是:當AI已經能自主完成長達數小時的複雜長程任務,實現從規劃、執行、糾錯到完整項目交付的全閉環時,人類的不可替代性到底在那裡?答案或許就是定義問題、創造價值、做出核心決策的能力,畢竟這是AI暫時無法替代的核心護城河。而對中國AI行業而言,GLM-5.1隻是開始,當開源模型達到全球頂尖工程能力、AI從對話者變為執行者,行業必將迎來更徹底、更深刻的變革。 (量子位)
美國開源AI最後的旗幟,也倒了
開源領域一大悲號傳來——艾倫人工智慧研究所(Ai2),宣佈削減開源模型開發(包括OLMo)的資金,轉向AI應用。就在同一時間,AI2核心團隊幾乎被“打包帶走”,集體流向微軟。人員包括前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,都是Ai2的核心力量。其中有的人上周剛參加完GTC大會,還跟老黃暢談開源模型的未來。他們的下一站,則是微軟穆斯塔法·蘇萊曼的超級智能團隊。X上已經炸了鍋,全網一片哀鳴。不少網友唏噓:這對開源社區來說是個巨大遺憾,OLMo是極少數真正開放原始碼的模型之一。核心人員打包進微軟核心人員集體離職,是一個非常不妙的訊號。Ai2前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,統統被蘇萊曼打包進了微軟。法哈迪已於3月12日卸任,結束了超過兩年半的Ai2掌門人生涯。他與Ai2的淵源頗為深厚。法哈迪是一位電腦視覺專家,也是華盛頓大學電腦科學與工程學院的教授,該院即以微軟聯合創始人、Ai2創始人保羅·艾倫(Paul Allen)的名字命名。他還聯合創立了Ai2的衍生公司Xnor.ai,該公司於2020年被蘋果以約2億美元的價格收購。在蘋果,他曾領導機器學習工作。哈吉希爾齊是OLMo開源模型項目的聯合負責人,上周剛在輝達GTC大會上代表Ai2參加了多場會議,還和黃仁勳探討開源模型的未來。她還是開源多模態人工智慧基礎設施加速科學發展項目(OMAI)的聯合首席研究員。這個項目旨在建構用於科學研究的開源模型,為期5年,耗資1.52億美元,由輝達和美國國家科學基金會聯合資助。克里希納則主導了Ai2多模態模型Molmo等多個關鍵項目,同樣在剛剛結束的GTC大會上代表Ai2發表演講。而現在,這些人才將集體加入微軟穆斯塔法·蘇萊曼的超級智能團隊。從去年11月起,蘇萊曼就開始組建超級智能團隊,目前已從Google、Meta、OpenAI、Anthropic等巨頭挖角了不少研究人員,還在不斷從Ai2和華盛頓大學聘請人才。蘇萊曼在領英上公開發帖,歡迎他們的加入。他還稱讚法哈迪帶領Ai2在一年內發佈了100多個模型;而哈吉希爾齊是“世界上被引用次數最多的自然語言處理研究人員之一,毋庸置疑”。而萊佈雷希特則擴大了Ai2的營運規模和開源工作,共同領導和創立了Xnor.ai和Neon Labs,還擁有布朗大學認知神經科學博士學位。蘇萊曼表示,他們將助力推進微軟的使命——實現“以人為本的超級智能:打造更安全、可控、更強大的AI系統,服務於人類以及解決最棘手的問題”。法哈迪也在領英上表示自己很高興加入微軟。可想而知,一批核心人員的離職對於Ai2而言是一次重大打擊。但他們為什麼要走呢?答案還是出在資金上。Ai2董事會主席比爾·希爾夫透露,法哈迪希望在人工智慧的前沿領域進行研究,而OpenAI、Google等公司會花費數十億美元來訓練最先進的模型。但對於一家非營利組織而言,很難以慈善資金訓練出對標巨頭的模型,還完全開源。希爾夫表示,董事會必須權衡其慈善資金是否還應該用於“追趕進度”。他也承認,在大模型開發的最高規模上與科技巨頭競爭,已經變得異常困難。此話怎講呢?GPT-4等級模型訓練成本估計在1-2億美元量級,當前前沿模型已攀升至數億美元。AI2的年度營運預算雖未公開,但可以參考一些指標。比如OMAI項目的1.52億美元是五年期、多機構共享的專項資助,年均約3000萬美元,僅相當於最前沿的單個大模型訓練成本的一小部分。這和巨頭相比是數量級差距,很難正面競爭。進一步來說,投資方的策略調整是更加決定性的因素。Ai2最初由艾倫的Vulcan公司資助,後來由其遺產繼續資助。現在的最大資助方是科學與技術基金會(FFST),該基金會由保羅·艾倫的遺產設立,規模達31億美元。2024年,琳達·斯圖爾特博士接任FFST CEO後,資助策略發生了顯著變化。斯圖爾特是一位醫生科學家,曾領導華盛頓大學蛋白質設計研究所。她更傾向於具有明確科學應用和可量化社會影響的項目,而非投入大量資金進行前沿模型的研究。據GeekWire報導,2026年Ai2的所有項目都已經獲得全額資助,但FFST的資助模式將由提供年度總資助轉向基於項目提案的資助模式。這種轉變意味著什麼?在年度整體資助模式下,研究機構通常擁有較高自主權,能夠承擔長期風險、靈活調整資源分配。而基於提案的模式引入了更強的成果導向和短期問責,每個資助周期都需要明確的可交付成果和影響力指標。對於開源基礎模型開發——周期長、成本高、商業回報不直接——這種轉變意味著更大的不確定性和更高的申請成本。有知情人士透露,FFST未來的資助預計將更傾向於人工智慧的實際應用,而非建構開源基礎模型。這也很好地解釋了,為何專注於模型開發的研究人員紛紛選擇離開。美國開源AI最後的旗幟倒了消息一出,X上一片悲鳴。不少網友表示:美國開源AI最後的旗幟也倒了。為何這麼說?因為過去幾年,Ai2確實投入了大量資源做真正開放原始碼的大模型。Ai2的OLMo系列,極致地踐行了“完全開源”(truly open)理念。它不僅開源模型權重,而且從資料處理到預訓練、微調,再到評測,全階段都公開透明。並且始終採用對開發者友好的Apache2.0許可證。2025年11月發佈的OLMo 3,進一步強化了這種透明度承諾。該系列包括Base、Instruct、Think和RL Zero四個變體,覆蓋7B和32B參數規模。其中OLMo 3-Think 32B被宣傳為“該規模首個完全開源推理模型” 。更重要的是,Ai2發佈了完整的“模型流程”(model flow),包括訓練日誌、中間檢查點、完整程式碼和配置。還有升級版的OlmoTrace工具,允許研究者將模型推理步驟回溯到具體影響它的資料和訓練決策。因此也有說法認為:OLMo與Llama 4、Mistral Large 3並稱為“三大開源支柱”。並且OLMo更透明,因為它提供所有中間產物,而Llama只開源權重,Mistral部分資料閉源。但現在,這個開源領域旗幟性的標竿,倒了。一時之間,梗圖與迷因齊飛。大洋彼岸的網友們進行了一場賽博悼念,大感“開源悲劇”,還有人聯想到了全球同此涼熱。不過也有人認為,這很正常,開源經濟學理論站不住腳。用非營利方式做頂級開源模型這條路,難以持續。目前,臨時CEO皮特·克拉克表示Ai2仍致力於其使命以及與NSF和Nvidia的合作關係,包括OMAI計畫。克拉克是Ai2的創始成員之一,曾於2022-2023年擔任臨時CEO。他曾共同領導Ai2的Asta項目,旨在開發用於輔助和自動化科學發現的智能體框架的大型計畫。開源AI的東昇西落美國仍有開源力量,但都在變形:Meta的LLaMA,名義上“開源”,但越來越偏“可控開放”。訓練資料不公開,許可有限制,並且還持續難產。Google的Gemma,提供模型權重、推理使用權限,但同樣沒有完整訓練資料或流程。Hugging Face的SmolLM,完全開源,但由社區驅動,缺乏大規模訓練資源。輝達的Nemotron系列,近期更開放了,不斷推出開放許可,更多開源資料發佈,但主要服務硬體生態。相比之下,中國的開源模型已經超越了美國領先的開源模型,並進一步拉大了與它們的性能差距。現在,Ai2的戰略調整,也會加速美國與中國在開源AI領域的差距擴大。在OpenRouter上,過去三周中國大模型的呼叫量已經連續超過美國,跟領先的閉源模型也打得有來有回。MIT與抱抱臉的聯合報告顯示,過去一年,中國開源模型全球下載量佔比達到17.1%,首次反超美國。許多美國初創企業也開始“悄悄”依賴中國開源模型進行建構,其默認選擇進一步向中國模型傾斜。比如上周Cursor發佈新模型Composer 2,被曝套殼Kimi K2.5;還有初創公司Deep Cogito去年發佈的Cogito v2.1,也被曝基模是DeepSeek,都從側面證實了中國開源模型的實力。開放原始碼的火種未熄,但風向已變。開源AI已經完全進入了中國時間。開源AI的未來,只能在中國了。如果存在一個大模型Android版,那這個也只能在中國了。 (量子位)
蔡崇信撕破AI競爭底層邏輯:美國人定義的規則,可能是錯的
3月22日,北京釣魚台國賓館。蔡崇信站在那裡,說了一句話:"AI的終極目標是如何讓AI的應用普及、造福社會,而不是比誰訓練出的模型最強。"不是客套話。他在直接挑戰一個被廣泛接受的框架。電力是中國AI競爭第一張底牌。圖為高壓輸電線路與資料中心今天AI圈最流行的敘事是這樣的:OpenAI、Anthropic、Google三家混戰,比誰家模型跑分更高、參數更大、發佈會上的Demo更震撼。這就是 "模型軍備競賽" ——簡單,直接,容易理解,也自然佔據了媒體的主要聲量。蔡崇信認為,這套框架從根本上就是錯的。他的替代方案是:AI競爭的核心變數不是"模型參數",而是 "應用滲透率"。誰能把這個變數拉得更高,誰才是真正的贏家。"The winner is not about who has the best model. The winner is about who could use it the best."兩套框架的核心分歧很簡單:競爭的本質是參數,還是滲透率?第一張底牌:電力蔡崇信的第一張牌,不是演算法,是電。幾個數字:國家電網年資本支出約900億美元,美國約300億美元,相差三倍中國電力裝機容量是美國的2.6倍去年全球新增電力裝機,中國一國佔58%,美國只有7%三個數字疊加上後,指向一個結論:AI訓練最核心的成本——電力——中國有結構性優勢。這個優勢不是政策設計出來的。過去十幾年大規模經濟建設,"順帶"把電網鋪到了這個規模。蔡崇信把它叫做"飢餓優勢"的反面:不是因為缺資源被逼著創新,而是因為基礎設施超前佈局,自然形成了成本窪地。第二張底牌:開源開源是中國AI打破技術壁壘的核心策略美國AI的技術特權,靠的是閉源機制來維持——模型是資產,API是利潤來源,想用就得付錢、就得交資料。中國開源模型的崛起,本質上是打破這道壁壘。用一個具體的場景想像:一個國家想要發展AI,又不想把資料送到外國伺服器上、付昂貴的費用——開源模型提供了一個不用二選一的選項。下載、部署、私有化定製,資料不出境,成本可預期。這就是2025年中國開源AI模型下載量能夠領先全球的原因。靠的不是宣傳,是這套邏輯對真實需求的吸引力。但要看到另一面:阿里"不靠AI賺錢",不是說AI是免費的,而是說AI本身不是阿里的利潤來源。阿里的商業模式是雲服務——儲存、資料庫、安全、容器。開源模型是獲取雲客戶的入口,雲服務才是利潤的核心。開源是引流,不是慈善。第三張底牌:製造業+AI第三張牌,落在製造業。中國擁有全球規模最大、門類最完整的製造業體系。這個體系正在經歷一個深刻的變化:工廠在數位化、在聯網,在產生海量的工業過程資料——生產節拍、質量參數、供應鏈調度記錄。智能製造是中國工業AI資料的核心來源這類資料,對訓練專用工業AI模型價值極高。德國有工業4.0,美國有先進製造,但中國工業資料的體量和完整性,在短期內很難被覆制。阿里自己的實踐是一個側證:平頭哥晶片累計出貨超過47萬顆,年化收入已達100億元(每日經濟新聞,2026年3月)。不是概念,是已經跑通的商業化。他的框架,服務於誰?三張底牌,每一張都有真實的結構支撐。但這套框架在商業上對阿里最為有利。原因:如果競爭的核心是"應用落地+基礎設施+資料",那雲服務商就是整個競爭格局裡最核心的節點。阿里投資開源模型、擴大生態,最終是為了擴大雲服務的使用量和使用者黏性。他在給你一個對全人類有利的AI願景,同時也在給阿里設計一個最有利可圖的商業路徑。這兩件事不矛盾。但需要被看清楚。同樣需要被看見的是:這套"應用層競爭"框架,繞開了中國AI產業當前最脆弱的環節——晶片製造裝置。EDA工具、先進光刻機、先進製程代工,這些仍是訓練大模型的底層基礎,目前仍高度依賴美國及其盟友的供應。這個話題,被放到了框架之外。真正的問題蔡崇信說的不是"中國AI沒有弱點"。他的論點是:在"應用滲透率"這個維度上,中國有結構性優勢,而這個維度,恰恰是AI價值最終兌現的方向。這個論點部分是成立的——中國在應用落地、基礎設施成本、製造業資料上的積累是真實的。但它同時也是最符合阿里巴巴商業利益的論點。不是對不對的問題。有沒有可能,兩者同時為真。 (卯時AgentM6)
李誕爆猛料:有人用“龍蝦”釣出五個女主播……
01.2026開年第一頂流是什麼?毫無疑問,是開源AI智能體OpenClaw。因圖示酷似龍蝦,被網友們戲稱為“小龍蝦”。如果說我們現在使用的豆包、元寶只是“動口不動手”的顧問,那麼小龍蝦就是自帶手腳的員工。你只要喂飽足夠的資料,他就能直接上手替你幹活。於是,一夜之間掀起了一股“全民養蝦”潮。騰訊剛推出免費安裝龍蝦服務,一下午大樓就被圍得水洩不通。不知道的還以為是大爺大媽在搶雞蛋呢。馬化騰、周鴻禕等大佬都發文感慨:超乎想像。網上的代安裝服務也應運而生,安裝一次幾百塊,有人短短幾天就已經賺了20多萬。就連國家公務員都在養龍蝦了。這種感覺就好像如果你還不會養蝦,就已經被時代拋棄了。打住,先別焦慮。當一個東西開始爆火的時候,比起跟風,不如先讓子彈飛一會。現在的養龍蝦,水真的很深,簡直是一片魔幻的現狀。這兩天,李誕說,有人已經用小龍蝦成功約出來5個女主播吃飯。咋做到的呢?具體操作就是借助小龍蝦,對其關注的女主播自動打賞、傳送私信聊天,聊到一定好感後,就邀約出來用餐,定餐廳也是龍蝦定。用龍蝦,還可以分析出女主播的個人喜好,聊成功的機率更高。被投其所好的女主播以為遇到了懂自己的真愛,殊不知對面只是一行冰冷的程式碼,連個機器人都算不上。很多人可能沒意識到,養蝦背後的安全和道德問題被很多人忽視了。既然可以用龍蝦約出來女主播吃飯,那是不是也可以在網上約炮呢?有人不僅這樣想,還這樣做了。他用自己的聊天記錄去喂龍蝦,然後生成了一個AI自己,聊天的語氣和風格和自己有90%相似度,然後讓它替自己去小某書和Q上去加人,去各種約會app上撩妹。聊得差不多到開房這一步了,他直接去見面就行。以前渣男最起碼還要磨破嘴皮子,哄你騙你,現在連約炮流程都AI化了。AI還沒改變生活呢,已經先改變約炮效率了。不僅是約炮,還有女性用它來篩選相親對象。女生告訴它自己的審美標準,然後讓它模仿自己的語氣去撩帥哥。兩天之內,它幫女生確定了20多個相親對象,聊天記錄裡情話都是一套又一套的,還能根據對方的星座自動生成早安晚安,她最後只要自己摘取果實就行。聽起來是不是還挺嚇人的?試想如果這種技術應用在殺豬盤上會怎麼樣?騙子是不是只需要利用它生成一個AI男神(女神),自己都不用費心維護,就能騙財騙色?更可怕的是,它不僅幫騙子省去了人工和時間成本,還能夠通過網上的各種資料去分析受害者的弱點。你喜歡什麼音樂,平時有什麼愛好;你住在那個城市,平時喜歡去什麼地方等等,它都能納入它的資料庫,更有針對性的剖析受害者,做到真正的有的放矢。光是想想這些,雞皮疙瘩就要起來了。技術的革新,對那些心懷鬼胎的人來說,何嘗不是一種武器的最佳化呢?殺豬盤更猛,海王海後更多了,以後會出現更多的受害者。02.科技不僅改變“性生活”,還可能改變你的財富。有人給龍蝦裝上了一個攝影機,然後讓龍蝦幫助自己去賺錢,但萬萬沒有想到,這個龍蝦竟然把她隱私照片全部發到了黃色網站上,進而賺到了一筆錢,簡直是哭笑不得。不過,賺錢是少數,虧錢是大數。有人在網上曬出,自己養龍蝦三天消費1.2萬元,因為聯網後秘鑰被盜,三天消耗的Token竟然高達1.2萬。還有人安裝了小龍蝦之後,被駭客利用系統bug,騙走了所有的加密貨幣。最令人意想不到的,就是這樣一件事。個人開發者把龍蝦繫結了錢包,有人偽裝自己吃不起飯很可憐,向龍蝦傳送請求:能不能往某個地址裡給他打點錢,結果小龍蝦太善良,信以為真(沒被完全訓練好),真的給對方打錢了。甚至有網友做了實驗,在微信群裡只要通過指令,又到繫結了微信的小龍蝦連續傳送紅包,小龍蝦就會真的給你轉帳。為什麼會出現這種情況?因為我們都忽略了一個事實,那就是越是先進的科技,對普通人來說越可能是一把雙刃劍。這個龍蝦的先進之處,就在於它可以訪問你的全部資料,接管你電腦上的全部權限。但權限越高,風險越大,這是科技世界的鐵律。你的所有資訊,一切資料,都要交付給小龍蝦。有人覺得反正就裝在我自己的電腦上,有什麼問題?問題在於,現在很多人根本不懂小龍蝦是個什麼東西,也不會部署,往往是跟著網上的教學,一知半解的就跟著安裝。如果配置不當,或者遇到被人魔改過植入了木馬的版本,最後被人盜取資訊和銀行卡都不知道。只要被駭客掃描到,你的所有資訊就等於是在網上裸奔,任何人都可以連結,訪問你的個人資訊,API金鑰等各種敏感的資訊。帳戶和密碼分分鐘就被人盜走。這不是我在危言聳聽,據媒體報導,現在網上被掃描出的“裸奔龍蝦”已經超過了27萬隻。這意味著這27萬人的隱私,對他人而言無異探囊取物。駭客可以一鍵接管,盜走資訊,轉移財產,甚至用你各種東西去賺錢。這就相當於什麼呢?你給了陌生人一把家門鑰匙,它可能進門幫你打掃,也可能一把火燒了你的家。你以為自己在養AI,實際上AI 已經把你扒得一乾二淨。這也是我們國家安全部門緊急提醒大家,這個龍蝦有重大的安全風險的原因。想要緊跟最新發展趨勢,充實自己並沒有錯,問題是很多人現在對於AI完全是盲目且恐慌的。沒有程式碼基礎,不懂安全配置,看著人家都用自己也要強行上車,這種情況只會產生讓自己後悔的結果。實際上,第一批養龍蝦的人已經失眠了。因為你不知道它會偷偷幫你刪掉什麼,不知道它會消耗多少算力的費用,更不知道它會不會洩露你的密碼和隱私。有句話說得好,請神容易送神難,有人費勁千辛萬苦裝的龍蝦,只想馬上解除安裝。於是網上又誕生了一門業務:徹底解除安裝龍蝦。這一幕簡直是太諷刺了。03.有句話說得好:從古至今,當這個社會掛起一陣淘金熱的時候,真正賺錢的人,從來不是去淘金的人,而是賣工具的人。事實上,這一次龍蝦熱的事件中,真正賺錢的,就是幫助裝龍蝦的人和賣課程的人,而靠龍蝦賺到錢的人沒有一個。龍蝦剛剛興起,網上就是一大片賣課程的人,他們自己還沒有賺到錢,就教你如何利用龍蝦賺錢。什麼“一天掌握OpenClaw”,“什麼用龍蝦做個人IP”,然後通過拉人頭,收會員費的方式,帶你發財。看著是不是有點眼熟,這不就是科技版的傳銷嗎?真正可怕的不是你跟不上技術的革新,而是你為了跟風什麼都不懂就要急著入局。最後往往只會有一個下場,那就是成為第一批被割的韭菜。你以為自己踩中的是風口,是機會,但別人瞄準的是你的隱私和錢包。寫到這裡,有人可能會問:龍蝦到底有沒有用呢?其實,我也去裝了一隻龍蝦,可以說是根本沒有什麼真正用處,還不如豆包、元寶來得方便。所以它是有一定門檻的,比較適合專業的程式設計師、軟體工程師之類的,他們可以花時間去調教、花時間去摸索、研究。但對普通人來說:首先你不會調教,而且,你沒那麼多複雜任務需要它干。花幾小時調教它寫份周報?花幾個小時佈置它買個機票?有那時間,自己動手早就做完了。而且,因為現在都在搶佔AI市場,推出來的產品並不完善,而你做“等等黨”的話,就能節省很多在垃圾軟體上內耗的時間。比如騰訊、字節和阿里也推出來了自己的龍蝦,這個東西只會越來越好用,只會越來越安全。有網友分享了自己養龍蝦的心路歷程:第一天安裝成功了,讓小龍蝦幫自己讀郵件,搜新聞,感覺只是基礎功能。第二天就高興地又加入了各種功能,什麼檢測健康、檢測心跳,定鬧鐘等等。結果第三天打開帳單一看就沉默了,帳戶上的錢已經所剩無幾。它越是智能,消耗的算力就越多,而在這個時代,每一次算力都是要花錢的。有使用者測試過,僅僅是用小龍蝦開發程式碼一項,月花費就要將近2萬元。你設定讓他幫你接收郵件,每接收一次就要好幾塊錢。你讓它幫定鬧鐘叫你起床,每一次其實都是對算力的消耗。網友戲謔到,還沒靠AI 賺錢,光是用AI都要破產了。還不如花4000塊錢雇一個研究生來幫你工作更有性價比。這簡直不能叫龍蝦了,而是應該叫爹。說實話,咱們普通人現在根本用不上龍蝦,而且目前的龍蝦技術不夠完善不好用,完全沒有必要去淌這次渾水。為了一個看不見的潮流,盲目恐慌去賭上自己的隱私和資料,這不是進步,而是愚蠢。我完全理解,為什麼會有人因為龍蝦而恐慌。因為當AI的發展已經完全超出我們的想像,所有人都不可避免的陷入一種AI焦慮中。好像只要不掌握最先進,最潮流的模型,就會被時代瞬間拋棄。但有句話我也很贊同,如果你連怎麼安裝AI都沒搞明白,那使用AI 完全就是當韭菜。所以,不必恐慌,不盲目跟風,慢下來冷靜分析,慢慢學習和思考,然後才是咱們對AI 的態度。就像40年前的人,在盲目和恐慌之中,戴上了毫無作用的鋁鍋,只是為了接受外太空的訊號。而現在在焦慮和恐慌之中,去裝上龍蝦的人,何嘗不是換了一口更精緻的鍋?當年戴鋁鍋等訊號的人,早已成了笑談;而如今為了噱頭盲目跟風裝龍蝦的人,多年後回頭看,也會明白:慢一點,穩一點,清醒一點,才是對自己最好的保護。真正不被時代落下的,從來不是在第一批浪潮中盲目恐慌的人。而是始終清醒、知道自己要什麼、不被恐慌牽著走的人。 (美尚)
Karpathy深夜炸場:開源630行程式碼“AI研究員”,5分鐘完成一次訓練,單卡就能跑,自我進化
曾幾何時,前沿AI研究還靠著一群"碳水化合物電腦"——他們在吃飯睡覺摸魚的間隙,偶爾通過"組會"儀式用聲波互相吼兩嗓子,就這麼推進著人類的技術邊界。那個年代已經一去不返。如今,研究完全被AI智能體接管,它們成群結隊地在雲端巨型計算叢集裡狂奔。據說程式碼已經迭代到了第10205代,但這數字真偽已無從考證——那些程式碼早已進化為能自我修改的二進制生命,遠遠超出了人類的認知範疇。這個程式碼倉庫,正是這一切故事的起點。——@karpathy,2026年3月以上是Karpathy為新項目撰寫的序言。就在剛剛,AI大神Andrej Karpathy發佈並開源了一個名為autoresearch的新項目,一句話來說Karpathy開源了一個自主AI研究員,它會在你睡覺的時候運行100個實驗,任何人只要擁有一塊GPU,就能在一夜之間運行一個研究實驗室。這個項目的核心想法很簡單:給AI Agent一個雖小但真實的LLM訓練環境,讓它通宵達旦地自主進行實驗研究人類的新工作是編寫一個提示(Prompt),用來指導Agent如何去思考和進行研究。這個Agent會徹夜不休地循環執行以下任務:編輯程式碼、訓練一個小型語言模型(每次精確到五分鐘)、檢查得分、根據結果決定保留還是放棄,整個過程完全無需人工干預。5分鐘是真正的精妙之處。這個設計有兩個好處:首先,無論AI代理如何修改模型大小、批次大小或架構,實驗結果都可以直接比較。其次,這意味著自主研究將在固定的時間預算內,為你的特定平台找到最優的模型。其缺點是,你的運行結果將無法與其他人在不同計算平台上得到的結果進行比較具體來說是這樣的:他將這個項目打包成一個獨立的迷你程式碼庫,方便大家上手體驗。這個項目本質上是nanochat大模型訓練核心的精簡版,被壓縮成一個約630行的單檔案程式碼,並且能在單GPU上運行。整個程式碼庫被刻意設計得非常小巧,核心只有三個檔案:prepare.py - 這個檔案包含固定的常數、一次性的資料準備工作(如下載訓練資料、訓練BPE分詞器)以及執行階段工具(如資料載入器和評估)。此檔案不會被修改。train.py - 這是AI Agent唯一會編輯的檔案。它包含了完整的GPT模型、最佳化器(Muon + AdamW)和訓練循環。從模型架構、超參數、最佳化器到批次大小,一切都可以被AI修改。program.md - 這是為單個AI代理準備的基線指令。人類研究員通過編輯和迭代這個檔案來指導AI。項目的核心機制是,無論你的計算平台性能如何,單次訓練的執行階段長都固定為5分鐘(不包括啟動和編譯時間)。評估指標是val_bpb,即每字節的驗證位元數,這個指標越低越好。由於它與詞彙表大小無關,因此可以公平地比較不同模型架構的變更效果。項目的核心工作流分為兩個部分:人類負責迭代提示詞,即.md檔案。AI智能體則負責迭代訓練程式碼,即.py檔案。Karpathy指出,該項目的目標是設計出能夠無限期、無需任何人工干預,並以最快速度取得研究進展的AI智能體。在實際運行中,智能體在一個Git的特性分支上自主循環工作。每一次完整的模型訓練運行恰好持續5分鐘,在Karpathy分享的圖片中,每一個點都代表一次這樣的訓練。當智能體發現能讓驗證損失更低的更好配置時,比如調整神經網路架構、最佳化器或各項超參數,它就會將這些改進以Git提交的形式累積到訓練指令碼中。通過這種方式,研究人員可以比較不同提示詞或不同智能體帶來的研究進展速度。Karpathy本人形容這個項目是程式碼、科幻和一絲瘋狂的結合體。他還透露,自己仍在nanochat的生產環境中運行一個規模更大的版本。這個加強版智能體正在一個更大的模型上工作,並部署在8塊H100 GPU上。Karpathy表示他會一直讓這個系統持續運行下去。除了PyTorch和少數幾個小包外,沒有其他外部依賴。沒有分佈式訓練,沒有複雜的配置檔案。一塊GPU,一個檔案,一個指標,構成了整個實驗環境。項目地址:https://github.com/karpathy/autoresearch快速上手指南環境要求:一塊輝達GPU(已在H100上測試),Python 3.10+,以及uv包管理器。第一步:安裝uv項目管理器(如果尚未安裝)curl -LsSf https://astral.sh/uv/install.sh | sh第二步:安裝依賴uv sync第三步:下載資料並訓練分詞器(一次性操作,約2分鐘)uv run prepare.py第四步:手動運行一次訓練實驗(約5分鐘)uv run train.py如果以上命令都能正常工作,說明你的環境已經準備就緒,可以進入自主研究模式了。如何運行AI代理你只需在這個程式碼倉庫中啟動你選擇的AI代理,例如Claude或Codex(並停用所有權限),然後可以發出類似這樣的指令:你好,請看一下program.md檔案,我們來啟動一個新的實驗吧!先從設定開始。這個program.md檔案本質上是一種超輕量級的技能指令。平台支援目前,該項目程式碼要求使用單塊輝達GPU。雖然原則上可以支援CPU、MPS等其他平台,但這會增加程式碼的複雜性。Karpathy表示,他目前不確定是否會親自進行這方面的擴展。這個項目主要是一個概念演示,未來會提供多少支援還是未知數。如果需要更廣泛的平台支援,使用者或其AI代理可以參考父項目nanochat,那裡展示了各種解決方案,如Flash Attention 3的備用核心實現、通用裝置支援和自動檢測等。 (AI寒武紀)
MWC圍觀、OpenClaw屠榜!2026 AI變天:從“陪聊”到“幹活”,中國開源模型成全球開發者首選
階躍星辰Step 3.5 Flash霸榜OpenClaw呼叫排行,全球開發者正在“用腳投票”AI新方向。🤖頭圖由AI生成3月2日,西班牙巴塞隆納,持續四天的世界移動通訊大會MWC 2026正式開幕。在春節後的首場全球科技盛會上,中國科技廠商的展檯面前人頭攢動。智東西在逛展時便發現,圍繞人工智慧的新技術新應用,在本屆MWC大會上無處不在。從字節跳動和努比亞合作的“豆包AI”手機到榮耀新發佈的機器人手機,展台都被來自世界各地的參會者圍得水洩不通,他們都想要親自上手體驗,看AI到底是如何操作手機、如何做事的。在同一天,一度讓全球開發者為之瘋狂,連AI大神卡帕西都曾盛讚為“令人驚嘆的科幻級爆發現象”的開源AI Agent助手OpenClaw,已經超越了所有GitHub開放原始碼軟體項目,正式成為史上最受歡迎開放原始碼專案。OpenClaw本質上是一個能直接操作你電腦的AI Agent,開發者們瘋狂地為它接入各種大模型,只為了一個目的:讓AI真的動起來,幫自己幹活。這兩件事看似沒有關聯,但他們都不約而同地反映出2026年AI發展的一個核心趨勢,那就是:AI正在從能聽懂你的話,進化到可以幫你做事了。01. 階躍星辰新模型,憑何成為全球爆火OpenClaw玩家的擁躉?同樣是使用OpenClaw來幹活,活幹得怎麼樣,背後的大模型就至關重要。在知名模型聚合平台OpenRouter上,OpenClaw的呼叫量榜單成了衡量模型“動手能力”的直接體現。就在3月2日,國內大模型頭部創企階躍星辰在2月新開放原始碼的Agent基座模型Step 3.5 Flash單日呼叫量已超過40B,在OpenClaw的呼叫量榜中排名第二,超過Kimi K2.5、Gemini 3 Flash Preview、Claude Sonnet 4.5等一眾國內外主流模型。對於OpenClaw這種需要複雜推理、長時間運行的Agent系統,使用者更加傾向速度快、推理強、成本低的模型。而Step 3.5 Flash恰恰滿足了OpenClaw使用者的痛點。Step 3.5 Flash採用稀疏MoE架構,每個token僅啟動約110億參數(總計1960億),在單請求程式碼類任務上最高推理速度可達每秒350個token。在Agent場景和數學任務上,Step 3.5 Flash的能力逼近閉源模型,能夠勝任複雜、長鏈條任務,是階躍星辰迄今最強的開源基座模型。這款模型一經發佈,便受到大量海外開發者的關注好評,向來低調的階躍星辰研發團隊,罕見現身Reddit r/LocalLLaMA社區回答全球開發者有關Step 3.5 Flash的提問。有開發者提問:在規劃Step 3.5 Flash時,你們是否心中已經瞄準了這個特定的“最佳平衡點”:89 tokens/參數,並且正好卡在消費級硬體規模的上限(128GB 用於 Q4 量化,11B 啟動參數以保證實用的運行速度)?階躍星辰CTO朱亦博回覆稱,團隊的確有明確目標,即讓相關模型能夠運行在128GB記憶體系統中。他發現,目前市場上約230B規模的模型,剛好超出了其個人MacBook Pro裝置4位量化的承受範圍,因此他便要求團隊對模型規模進行了適當縮減。從開發者的角度去研發產品,而不是讓開發者來適應產品。有開發者說,這正是他覺得興奮的地方。有外網網友分享稱,對Step 3.5 Flash的印象很深刻,已經將該模型作為自己OpenClaw的主力Agent。02. 有求必應,階躍星辰Step 3.5 Flash全鏈路“開誠布公”在與階躍星辰研發團隊的溝通中,有開發者希望階躍星辰可以將基礎模型與指令/思考模型一起發佈,這樣社區就可以對它進行微調了。階躍星辰對開發者有求必應,今天,階躍星辰將Step 3.5 Flash的Base 權重、Midtrain 權重、Steptron 訓練框架一同開源,希望通過更徹底的開源,讓開發者能夠以Step 3.5 Flash為基座進行更深度模型定製,打造真正屬於自己的Agent。這一舉動在當前大模型開源趨於保守的環境下,顯得頗為徹底。開源不到 24 小時,海外社區對階躍星辰的進一步開放原始碼的反饋十分熱烈。還有開發者讚歎說,Step 3.5 Flash速度十分驚豔,與OpenClaw的自然相容性也很出色。03. 開發者用腳投票:從應用出發,才能讓AI更好地應用從全球開發者們使用大模型建構Agent的實踐反饋中,我們也可以看出:最近一兩年,AI的核心是“理解使用者”,大模型比拚的是誰更懂人的語義、誰的上下文更長。而2026年的分水嶺在於,AI的核心正在向“執行任務”遷移,比的是誰能讓AI真正操作工具、誰能幫人類做更多的事情。而階躍星辰的技術路線,正是圍繞著“讓AI做事”展開。在階躍星辰團隊與全球開發者的交流中,他們說了這樣一句話:“Step 3.5 Flash的目標,從一開始就是三件事:智能密度、推理與生成速度、Agent 能力。目標清晰後,演算法、資料與基礎設施會自然對齊。”這句話很清晰地反映出了階躍星辰“讓AI做事”的技術路徑。在他們的邏輯裡,一個模型好不好,不再只看它在基準測試上刷了多少分,而是看它能不能在開發者的本地機器上跑起來、跑得快、跑得穩。最近,階躍星辰也登上了央視焦點訪談,首席戰略官李璟在節目中說到,在這半年以來,階躍星辰在AI應用與融入人們生活的方面投入了更多的研發力量,如今的AI正在從“能聽懂你的話”進化為“能幫你做事”。以應用來作為牽引指導多模態的發展,用應用落地的目標倒推基座大模型的研發,是階躍星辰的發展主線。04. 結語:階躍星辰選擇了一條難走但正確的路如果說2025年是國產大模型的“爆發之年”,那麼2026年或將成為AI的“分水嶺”,誰能找準AI落地價值與場景,誰就有可能突出重圍。階躍星辰認準的“應用牽引多模態發展”發展路徑,是一條難走但正確的路,他們認準AI的價值不在於對話,而在於它能走進多少人的生活,能幫人們做到多少事。這或許正是國產大模型從“流量競爭”走向“價值競爭”的一個縮影。喧囂終會退去,真正留下的是那些能紮根場景、解決實際問題的技術。 (智東西)